神经压缩算法通常基于需要专门编码器和解码器体系结构的自动编码器,以实现不同的数据模式。在本文中,我们提出了Coin ++,这是一种神经压缩框架,无缝处理广泛的数据模式。我们的方法基于将数据转换为隐式神经表示,即映射坐标(例如像素位置)为特征(例如RGB值)的神经函数。然后,我们不用直接存储隐式神经表示的权重,而是存储应用于元学习的基础网络作为数据的压缩代码的调制。我们进一步量化和熵代码这些调制,从而导致大量压缩增益,同时与基线相比,将编码时间缩短了两个数量级。我们通过压缩从图像和音频到医学和气候数据的各种数据方式来证明我们方法的有效性。
translated by 谷歌翻译
仇恨言论在社交媒体领域的传播目前是一个严重的问题。对这些平台上生成的大量信息的不符合访问导致人们发布和反应发起暴力的有毒内容。尽管已经努力在线检测和限制此类内容,但准确识别它仍然具有挑战性。基于深度学习的解决方案一直处于识别可恶内容的最前沿。但是,诸如仇恨言论的上下文依赖性,用户的意图,不希望的偏见等因素使这个过程过度批评。在这项工作中,我们通过提出这些问题的层次结构组织来深入探索自动仇恨言论检测的广泛挑战。我们专注于机器学习或基于深度学习的解决方案所面临的挑战。在最高级别,我们将数据级别,模型级别和人类级别的挑战区分开。我们进一步提供了详细的分析层次结构的示例。这项调查将帮助研究人员在仇恨言论检测领域更有效地设计其解决方案。
translated by 谷歌翻译
Many applications, such as system identification, classification of time series, direct and inverse problems in partial differential equations, and uncertainty quantification lead to the question of approximation of a non-linear operator between metric spaces $\mathfrak{X}$ and $\mathfrak{Y}$. We study the problem of determining the degree of approximation of such operators on a compact subset $K_\mathfrak{X}\subset \mathfrak{X}$ using a finite amount of information. If $\mathcal{F}: K_\mathfrak{X}\to K_\mathfrak{Y}$, a well established strategy to approximate $\mathcal{F}(F)$ for some $F\in K_\mathfrak{X}$ is to encode $F$ (respectively, $\mathcal{F}(F)$) in terms of a finite number $d$ (repectively $m$) of real numbers. Together with appropriate reconstruction algorithms (decoders), the problem reduces to the approximation of $m$ functions on a compact subset of a high dimensional Euclidean space $\mathbb{R}^d$, equivalently, the unit sphere $\mathbb{S}^d$ embedded in $\mathbb{R}^{d+1}$. The problem is challenging because $d$, $m$, as well as the complexity of the approximation on $\mathbb{S}^d$ are all large, and it is necessary to estimate the accuracy keeping track of the inter-dependence of all the approximations involved. In this paper, we establish constructive methods to do this efficiently; i.e., with the constants involved in the estimates on the approximation on $\mathbb{S}^d$ being $\mathcal{O}(d^{1/6})$. We study different smoothness classes for the operators, and also propose a method for approximation of $\mathcal{F}(F)$ using only information in a small neighborhood of $F$, resulting in an effective reduction in the number of parameters involved.
translated by 谷歌翻译
在没有人为干预的图像自动色彩上是在机器学习界的兴趣中的一个短暂的时间。分配颜色到图像是一个非常令人虐待的问题,因为它具有非常高的自由度的先天性;给定图像,通常没有单一的颜色组合是正确的。除了着色之外,图像重建中的另一个问题是单图像超分辨率,其旨在将低分辨率图像转换为更高的分辨率。该研究旨在通过专注于图像的非常特定的图像,即天文图像,并使用生成的对抗网络(GAN)来提供自动化方法。我们探索两种不同颜色空间,RGB和L * A *中各种型号的使用。我们使用传输学习,由于小数据集,使用预先训练的Reset-18作为骨干,即U-Net的编码器,进一步微调。该模型产生视觉上有吸引力的图像,其在原始图像中不存在的这些结果中呈现的高分辨率高分辨率,着色数据。我们通过使用所有通道的每个颜色空间中的距离度量(例如L1距离和L2距离)评估GAN来提供我们的结果,以提供比较分析。我们使用Frechet Inception距离(FID)将生成的图像的分布与实际图像的分布进行比较,以评估模型的性能。
translated by 谷歌翻译
本文通过实时主轴振动的表征,提出了一种白色盒子支持向量机(SVM)框架及其群体的优化。通过加速度和统计特征的时域响应,通过了过程失败(即侧面,侧面,侧面,鼻磨损,火山口和凹槽磨损,边缘骨折)而演化的异常时刻。使用作为估计器的横跨验证(RFECV)的递归特征消除,因为估计器已经用于特征选择。此外,已经检查了标准SVM的能力,用于刀具健康监测,然后通过应用群基于群的算法进行优化。已经进行了五个元启发式算法性能的比较分析(大象放牧优化,Monarch蝶优化,Harris Hawks优化,粘液模算法和飞蛾搜索算法)。考虑到全局和本地表示,已经介绍了白盒方法,这些代表可以深入了解工具状况监控中机器学习模型的性能。
translated by 谷歌翻译
情绪分析是最基本的NLP任务,用于确定文本数据的极性。在多语言文本领域也有很多工作。仍然讨厌和令人反感的语音检测面临着挑战,这是由于数据的可用性不足,特别是印度和马拉地赛等印度语言。在这项工作中,我们考虑了印地语和马拉地养文本的仇恨和令人反感的语音检测。使用艺术的深度学习方法的状态制定了该问题作为文本分类任务。我们探讨了CNN,LSTM等不同的深度学习架构,以及多语言伯爵,烟草和单晶罗伯塔等伯特的变化。基于CNN和LSTM的基本模型将使用快文文本嵌入式增强。我们使用HASOC 2021 HINDI和MARATHI讨论语音数据集来比较这些算法。 Marathi DataSet由二进制标签和后印度数据集组成,包括二进制和更精细的粗糙标签。我们表明,基于变压器的模型表现了最佳甚至基本型号以及FastText Embeddings的基本模型具有竞争性能。此外,通过普通的超参数调谐,基本模型比细粒度的Hindi数据集上的基于BERT的模型更好。
translated by 谷歌翻译